上帝聊天机器人按需提供精神见解。可能会出什么问题?

基于宗教文本训练的大型语言模型声称可以按需提供精神见解。可能会出什么问题?

Hands from "The Creation of Adam" painting by Michelangelo, with HTML coding above the hands.

肯·布朗/蒙多工作室

月的第一天午夜前,居住在加尔各答的20岁穆斯林学生雷汉·汗在领英上发帖宣布,他推出了 QuranGPT,这是一款人工智能驱动的聊天机器人,旨在根据伊斯兰教最神圣的文本回答问题和提供建议。然后他就去睡觉了。七小时后他醒来,发现它因流量溢出而崩溃。许多评论是积极的,但也有一些不是。有些简直是赤裸裸的威胁。

汗最初感到压力,想要将聊天机器人下线,但他最终改变了主意。他认为人工智能可以成为一种桥梁,将人们与他们最深刻的精神问题的答案联系起来。“有些人想要接近他们的宗教,[但] 不愿意花时间去更多地了解它,”汗说。“如果我可以让所有内容通过一个提示轻松访问,会怎么样?”

QuranGPT——目前已被全球约 23 万人使用——只是最近在网上出现的大量基于宗教文本训练的聊天机器人之一。还有 Bible.Ai、Gita GPT、Buddhabot、使徒保罗 AI,一个模仿 16 世纪德国神学家 马丁·路德 训练的聊天机器人,另一个基于 孔子 的著作训练的聊天机器人,以及另一个旨在模仿 德尔斐神谕 的聊天机器人。数千年来,各种信仰的信徒花费大量时间——甚至一生——研究经文,以从中获取对人类存在最深奥的奥秘的见解,例如,灵魂死后的命运。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和思想的具有影响力的故事的未来。


这些聊天机器人的创建者不一定相信大型语言模型 (LLM) 会解决这些古老的 theological 难题。但他们确实认为,凭借其识别大量文本中细微语言模式并以类似人类的语言响应用户提示的能力(一种称为自然语言处理或 NLP 的功能),这些机器人理论上可以在几秒钟内综合精神见解,从而节省用户的时间和精力。这是按需提供的神圣智慧。

然而,许多专业神学家对将 LLM 与宗教混合抱有严重的担忧。维拉诺瓦大学神学系主任、撰写过多本关于宗教与科学交叉书籍的伊利亚·德里奥认为,这些聊天机器人——她不屑一顾地将其描述为“通往上帝的捷径”——破坏了传统上通过长期直接接触宗教文本所获得的精神益处。一些世俗的人工智能专家认为,使用 LLM 解释经文是基于对该技术的基本且可能危险的误解。然而,宗教团体正在拥抱多种类型和用途的人工智能。

其中一种新兴的用例是圣经翻译。在此之前,这项工作非常缓慢;将古代文献翻译成英文钦定版圣经(最初于 1611 年出版)花费了 七年 和一大批忠诚的学者。但 LLM 正在加快这一进程,使学者能够扩大圣经的影响范围。例如,一个名为 Paratext 的平台使用 NLP 来翻译经文中的深奥术语——例如“赎罪”或“成圣”——以产生其 网站 上描述的“圣经的忠实翻译”。去年,南加州大学的计算机科学家启动了 希腊语室 项目,该项目通过使用人工智能聊天机器人界面,帮助将圣经翻译成“低资源”语言(即,几乎或根本没有任何书面记录的语言)。

LLM 也被用作研究圣经译本之间语言变异的一种手段。在今年早些时候上传到预印本网站 arXiv.com 的一篇研究论文中,一个国际科学家团队描述了情感分析(一种 NLP 支持的检测文本中情感效价的过程)在分析耶稣的“登山宝训”(新约中最著名的段落之一)中的应用。(“温柔的人有福了,因为他们必承受地土……”)在分析了这篇布道的五个不同译本(包括钦定版)后,研究人员“发现各个译本的词汇量差异很大”。他们还“检测到耶稣用来传达信息的相关章节中存在不同程度的幽默、乐观和同情心”。

人工智能可能有助于重振神学或宗教研究。计算机科学家马克·格雷夫斯认为,LLM 理论上可以用来削弱僵化的宗教正统观念。“在某种意义上,神学领域在过去 800 年里几乎没有出现什么新事物,”非营利组织 AI and Faith 的主管格雷夫斯说,该组织致力于解决人工智能的伦理挑战。“生成式人工智能可以帮助实现突破框架的转变……并创造新想法。”

例如,格雷夫斯说,想象一下一个基于圣奥古斯丁(公元 354-430 年)著作训练的聊天机器人,另一个基于托马斯·阿奎那(约 1225-1274 年)著作训练的聊天机器人。神学家可以让这两位非同时代的人“对话”,可能会引发关于邪恶本质等富有成果的问题。他将 LLM 背后的随机机制比作“一个新手学生甚至是一个年幼的孩子[提出]一个问题,从而引发一种关于事物的新的思考方式。”

然而,其他人工智能专家则明显持谨慎态度。“人们会受到诱惑,通过将某种启示性质赋予这些聊天机器人来赚钱、出名并获得关注,”塔夫茨大学技术伦理学访问学者 托马斯·阿诺德 说,他还在哈佛大学获得了宗教学博士学位。

明尼苏达州圣约翰大学神学和计算机科学教授诺琳·赫茨菲尔德说,基于宗教文本训练的聊天机器人“将带有目前所有大型语言模型都存在的一些缺陷,其中最大的缺陷是幻觉”。“它们会编造东西。如果人们相信这些模型所说的是《古兰经》或《新约》中的内容,他们可能会被严重误导。”

人工智能公司 MosaicML 的机器学习工程师马克斯·马里恩担心好莱坞已经在大众的想象中灌输了一种错误的人工智能形象,即人工智能是绝对真实的(想想斯坦利·库布里克《2001:太空漫游》中的 HAL 9000,例如)。但他解释说,LLM 的设计目的是以统计学上最合乎逻辑的顺序排列单词;我们所说的真理并没有被纳入方程式。

苏黎世大学人工智能人类学专家和数字宗教助理教授贝丝·辛格勒说:“聊天机器人只是一种关联机器。”“它获取文本语料库,重新组合单词,并根据单词接在下一个单词之后的概率将它们排列在一起……这与理解和解释教义不同。”

在这种情况下,幻觉的危险因以下事实而加剧:宗教导向的聊天机器人很可能会吸引极其敏感的问题——人们可能会觉得太尴尬或羞愧而无法向牧师、伊玛目、拉比甚至密友提出的问题。在去年对 QuranGPT 进行软件更新期间,汗短暂地瞥见了用户提示,这些提示通常对他来说是不可见的。他回忆说,他看到有人问:“我抓到妻子出轨——我应该如何回应?” 另一个更令人不安的问题是:“我可以打我的妻子吗?”

汗对系统的回应感到满意(它敦促就这两个问题进行讨论和非暴力),但这次经历突显了他所承担的伦理责任的严重性。事实上,其他聊天机器人给出了应受谴责的建议。有 记录在案的案例 表明,Gita GPT 在引用《薄伽梵歌》中的段落时纵容谋杀。它说,只要是为了保护自己的 dharma 或职责而杀人,就是可以的。对于任何向这些聊天机器人寻求建议的人,辛格勒敦促人们使用“怀疑的解释学”——一种谨慎感,这种谨慎感源于这样一个事实:词语总是可以被多种方式解释,不仅被易犯错的人类,现在也被易犯错的机器解释。

© . All rights reserved.